Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
17.6.2009, Petr Štefek, recenze
V dnešní recenzi si představíme nedávnou uvedenou grafickou kartu Radeon HD 4770 z produkce Gigabyte, která má velkou šanci zaujmout svým výkonem a cenou nejen občasné hráče, ale také všechny, kteří by rádi v dnešní době nějakou tu stokorunu ušetřili. Radeon HD 4770 je zajímavý nejen svým grafickým jádrem vyráběným 40nm technologií ale rovněž paměťovými čipy GDDR5.
agwind (1) | 24.8.200922:01
tak se mi povedlo minuly tyden ukoristit v eshopu AL*A jednu Sapphire ATI Radeon HD 4770

Cely nateseny jsem presne podle navodu stahl rivatuner, upravil config, stahl FURMARK ­(otaci se tam ten ­"hnedej chlupatej zachrannej kruh­" :­-­).
Mam posledni Catalysty 9.8, konfigurace je Asus P5B Deluxe Core2Duo E5200 stabilne na 4008MHz.

Jakmile v rivatuneru zvednu GPU ze standartnich 750MHz na 800MHz a vic po chvilince vytuhne totalne cely comp muzu maximalne na 795MHz. S memory se dostanu take maximalne na na ca. 950MHz.

Samozrejme ze pustim vetrak na maximum ­(huci to jak vrtulnik protoze mam jinak v Compu vodnika­).
Zkousel sem to vickrat, podle mne je ta karta resp. ten kus co mam NAPROSTO nepouzitelny a budu ho vracet.
Cetl jsem recenze i zkusenosti uzivatelu na pretaktovani techto karet, nejhorsi vysledky s pretaktovanim GPU jsou myslim 820MHz prumer okolo 870MHz a pokud ma clovek stesti tak 915 az 1000Mhz.

Blby je ze nikdo nikde momentalne tuhle kartu nema, presto nechapu proc zrovna ja sem musel koupit NEJHORSI kus co kdy kdo koupil..... mate nekdo nejaky vysvetleni cim by to mohlo byt?

Samozrejme ze GPU­-Z a vsechno ukazuje ze se jedna o 40nm kartu, je presto mozny ze by nekde Cinani zfalsovali 40nm HD 4770 tak ze by prelabelovali 55nm HD 4730 ?? Nebo jina pricina?

Mel jsem v planu nasledne flashnout Asus TOP Bios, ovsem pote co se tato karta ukazala ve srovnani se vsemi ostatnimi co kdo testoval jako naprosty SH**T uz v seriovem stavu . .. tak nic flashovat nebudu a vratim ji do kramu.....
Odpovědět0  0
Radek X2 | 8.7.200910:10
Vyplatí se mi tuto kartu koupit kdyz mam Barton X2 5600+, který tedy ještě můžu přetaktovat na jeho max.? Vím, že toto CPU už má nejlepší léta za sebou, Ale v rozlišení 17 palcového monitoru to bude jedno ne? Mám teď 1650Pro, který je s dechem u konce.
Odpovědět0  0
amani | 21.6.200919:13
Presne tak ja tiez nechapem ten cpu a este aj pretaktovany , to nech nikto netvrdi ze na tych rozliseniach co su tu testovane by to brzdil nejaky klasicky core2duo 2.6 ­- 3.0 ghz ktory je imho asi najrozsirenejsi . Takto ten test a podobne s takouto strategiou testovania fakt nema vyznam a este aj s pretaktovanym , ved preco nezabit 2 muchi jednou ranou :­) inak je to pekny test GJ
Odpovědět0  0
grrrr | 22.6.200919:01
Ja zase nechapu proc vseci xteji testovat na pomalem procesoru. Kdy konecne lidi pochopite, ze kdyz dam dve ruzne nove karty na pomaly procesor tak je ten procesor bude natolik limitovat ve vykonu ze vykazi rozdil 00nic a tedy nepoznate ktera z nich je vykonnejsi.
Pokud xcete najit vhodnou kartu pro starsi sestavu tak na to by to chtelo zvlast recenzi, svoho casu se takove delali.
Odpovědět0  0
Pap | 17.6.200913:00
Zajímalo by mě srovnání výkonu se starší kartou ati 3850, 512 MB, jak by proti ní obstála?
Odpovědět0  0
aglarond (29) | 17.6.200913:24
podla roznych recenzii je rozdiel medzi 3850 512MB GDDR3 a 4770 512 GDDR5 sice taky, ze si to uz pri hrach vsimnes, ale ze by to stalo za upgrade sa velmi hovorit neda.. urcity prehlad ti daju grafy na http:­/­/www.tomshardware.com­/charts­/gaming­-graphics­-charts­-2009­/benchmarks,51.html
a este moja oblubena tabulka:
http:­/­/www.tomshardware.com­/reviews­/radeon­-geforce­-price,2323­-6.html
oboje vsak ber s rezervou.. osobne sa viac spolieham na velke recenzie tu na Svet Hardware, nez na taketo zhrnutia na TomsHardware..
Odpovědět0  0
Pap | 17.6.200913:27
OK, děkuji.
Odpovědět0  0
Petr Štefek (1098) | 17.6.200913:43
Osobne bych z 3850 upgradoval az na 4850, ale jinak je rozdil mezi kartami podstatny ...
Odpovědět0  0
Smeli (100) | 17.6.200915:56
Osobně sem přecházel z HD3850 512 na HD4850 s GDDR5 a ten rozdíl byl markantní a uspokojující :)
Odpovědět0  0
dusanmsk (23) | 17.6.200917:15
To bude tym goes like hell, ktore maju proti referencnym kartam este daco navrch.
Odpovědět0  0
CNX (35) | 17.6.200912:04
Píšete že karta nejde moc dobře taktovat, co jsem viděl testy zahraničních serverů tak tam to zase dosti chválili. Jádro měli na 950Mhz a paměti na 4Ghz, někde i 4,2Ghz což mi přijde jako velmi solidní výsledek. O změně chladiče nepsali takže pravděpodobně měli původní. Nicméně sám jsem kartu v rukách neměl, takže netvrdím že to tak zaručeně musí být....
Odpovědět0  0
aglarond (29) | 17.6.200913:14
ja som cital, ze oficialne drivery od ATI umoznuju kartu pretaktovat, ale iba velmi mierne.. az pouzitim roznych inych utilit je mozne kartu pretaktovat viac.. preto ju niekde za pretaktovanie chvalia a inde pisu, ze pretaktovat velmi nejde
Odpovědět0  0
Duha (16) | 17.6.200910:29
Zajímalo mě jestli podporuje FP64 tj. double precision ­(počítám BOINC­) a našel jsem tohle:
http:­/­/www.pcgameshardware.com­/aid,682726­/Review­-Ati­-RadeonHD­-4770­-vs­-HD­-4850­-und­-Geforce­-9800­-GT­/Reviews/
Odpovědět0  0
Smeli (100) | 17.6.20096:38
Kdyby si karta držela svou cenu kolem 2 tisíc stála by za to. Ale v dnešní době je to jen nedostupný předražený krám, většina rozumně smýšlejících lidí sáhne po výprodejových HD4850
Odpovědět0  0
cml11 (419) | 17.6.20096:16
Jen taková maličká muška se asi vloudila. Ta krabice na ilustračním obrázku s kartou je nějak Photoshopově vytuněná? Že popisy na vrchním boku neodpovídají tomu co je na zbytku krabice.
Odpovědět0  0
Petr Štefek (1098) | 17.6.20099:22
Je vytuněný box by Gigabyte...je to jen ilustrační obrázek. V kapitole 2. je vyfocená skutečná krabice.
Odpovědět0  0
cml11 (419) | 17.6.20099:30
Asi to Gigabyte z kraje trochu nedopracoval. Tady už mají správný:
http:­/­/www.gigabyte.cz­/images­/products­/r477d5­-512h­-b.jpg
Odpovědět0  0
moerty (3) | 17.6.20090:23
zdravim, nejak se mi nezda ta spotreba 4850, sice ji nevlastnim, ale urcite neni mensi nez u 4770 :)
Odpovědět0  0
moerty (3) | 17.6.20090:25
nejspis mate v grafu prohozene nazvy mezi gts 250 a 4850
Odpovědět0  0
disc | 17.6.20098:24
Ta spotřeba by mě taky zajímala. Ve všech testech co jsem viděl 4770 vs 4850 má 4850 výraznější zátěž. Tak jak to tedy je ?
Odpovědět0  0
Petr Štefek (1098) | 17.6.20099:23
Máte pravdu 167 má být správně 267W ... opravím.
Odpovědět0  0
Yiri | 20.6.200920:41
Tak už to opravte.
Odpovědět0  0
Petr12321 | 17.6.20090:15
Proc se testuji vsechny graficky karty na tak silnym procesoru? Vetsinu grafickych karet si dneska clovek tak nejak muze jeste dovolit, ale prechazet na zcela novou platformu i7 je uz hodne velka palka..

Neberte to jako nejake hazeni spiny, zkratka me zajima ­"proc­"..

Pro mne je napriklad v tuto chvili rozhodujici, zda ma smysl upgrade z 8800GTX ­(2GB RAM a C2D @ 2.6GHz­). To se z techto grafu ale nedoctu.. A rekl bych ze nejsem sam...

Diky :)
Odpovědět0  0
Michal Huspeka (70) | 17.6.20090:28
No imho je to hlavně proto, aby ­"slabší­" CPU nebrzdil ty karty ve vyšších rozlišeních.
Testovací sestava je jen jedna a provádí se na ní i testy hi­-endu v 2560x1600....
Odpovědět0  0
Petr Štefek (1098) | 17.6.20099:26
Přesně tak ... kdybych měl doma skladovat všemožné typy sestav, tak se nehnu. Aktivně používám jednu a dále mám asi dvě desky a další dvě CPU a nějaké paměti+ x karet.
Odpovědět0  0
Petr12321 | 17.6.200911:45
No to uplne chapu.. Ja nerikam, ze to chce testy vsech moznych procesoru, mne jde jenom o jeden, nejakej prumernej. Tzn, ze vsechny testy by se delaly 2x, jednou pro high­-end CPU i7 a druhej pro ­"normalni­" CPU. Nejakou anketu na tema ­"Jake doma mate CPU­" uz jsem tu videl, tak si z toho muzete vzit ten prumernej procesor..

Aspon by bylo videt, zda uz ma cenu jit do lepsiho CPU ­(CPU nestaci krmit GPU­) anebo jenom koupit tu novou GPU ­(CPU stale staci, GPU uz nezvlada­)

Bylo by to mozne?
Dik :)
Odpovědět0  0
v0cas (57) | 17.6.200910:37
Z principu nemůže slabší CPU omezovat grafiku ve vyšších rozlišeních, protože tam hraje největší vliv výkon grafiky.
Naopak CPU omezuje grafiku v nižších rozlišeních, všimněte si že tam vždy býva mezi grafikami nejmenší rozdíl.
Odpovědět0  0
Michal Huspeka (70) | 17.6.200913:49
Nemáš tak úplně pravdu, ve hrách typu GTA4, WiC a dalších je i v 1920x1200 hodně znát rozdíl mezi např. i7 a X2 5000+ ­(cca. 40 %­), přepočteno na fps to může dělat třeba 40 vs. 25 ;­-)
Odpovědět0  0
v0cas (57) | 17.6.200914:03
1920x1200 je jiz pomerne vysoke rozliseni, zkus to v 1280x1024 bez AA
Odpovědět0  0
v0cas (57) | 17.6.200914:08
anebo to zkus v 2560x1600 16xAA a uvidiz ze mezi CPU bude mininalni rozdil
Odpovědět0  0
Michal Huspeka (70) | 17.6.200914:52
No dyť o tom se tu bavíme, že pro vyšší rozlišení je potřeba silnější CPU, aby ty hi­-end karty nebrzdil.... a je dobře, že ho Petr v testovací sestavě má.

A i když AA samo vliv CPU trochu potlačuje, tak i v 2560 + AA v těch hrách a mezi těmi CPU výše nějakej rozdíl bude.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.